iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 16
0
AI & Data

跟top kaggler學習如何贏得資料分析競賽 系列 第 16

[Day 16] Metrics / 評估指標 - Calssification

  • 分享至 

  • xImage
  •  

代號說明

https://ithelp.ithome.com.tw/upload/images/20190917/20108719rDRCoRbTcC.png
soft label 柔性標記 - 自 Well-Trained 模型蒸餾出有用的知識
hard label 剛性標記 - 傳統 1 或 0 表示法


Accuracy

https://ithelp.ithome.com.tw/upload/images/20190917/20108719P2YNWSzQiX.png
Best Constant : predict the most frequent class

舉例

Dataset : 10 cakes, 90 eggs
Predict always eggs : accuracy = 0.9!


Logarithmic loss (logloss)

屬於 soft prediction
https://ithelp.ithome.com.tw/upload/images/20190917/20108719RuP31ppTWB.png
截圖自 Coursera

Best Constant : set αi to frequency of i-th class

舉例

Dataset : 10 cakes, 90 eggs
α = [0.1, 0.9]


Area Under Curve (AUC ROC)

https://ithelp.ithome.com.tw/upload/images/20190917/20108719Aj8G5chvEe.png

pair = (red object, green object)
https://ithelp.ithome.com.tw/upload/images/20190917/20108719FeKkBaq5S1.png
TP : true positive, FP : false positive
截圖自 Coursera

Best constants - All constants give same score


Cohen's Kappa motivation

屬於 hard prediction
https://ithelp.ithome.com.tw/upload/images/20190917/20108719fTQuS2Y2OJ.png
截圖自 Coursera

舉例

Dataset : 10 cakes, 90 eggs
Baseline accuracy=0.9

predict 20 cakes and 80 eggs at random : accuracy ~0.74
0.2 * 0.1 + 0.8 * 0.9 = 0.74
error ~ 0.26

https://ithelp.ithome.com.tw/upload/images/20190917/20108719ZhAS1W92m7.png
截圖自 Coursera


上一篇
[Day 15] Metrics / 評估指標 - Regression metrics
下一篇
[Day 17] Metrics optimization / 評估指標最佳化 - Regression
系列文
跟top kaggler學習如何贏得資料分析競賽 30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言